AI资讯新闻榜单内容搜索- LLM

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索:  LLM
当LLM学会左右互搏,基础模型或将迎来集体进化

当LLM学会左右互搏,基础模型或将迎来集体进化

当LLM学会左右互搏,基础模型或将迎来集体进化

进入现今的大模型 (LLM) 时代,又有研究者发现了左右互搏的精妙用法!近日,加利福尼亚大学洛杉矶分校的顾全全团队提出了一种新方法 SPIN(Self-Play Fine-Tuning),可不使用额外微调数据,仅靠自我博弈就能大幅提升 LLM 的能力。

来自主题: AI资讯
9205 点击    2024-01-06 12:17
骁龙888实时运行,美团、浙大等打造全流程移动端多模态大模型MobileVLM

骁龙888实时运行,美团、浙大等打造全流程移动端多模态大模型MobileVLM

骁龙888实时运行,美团、浙大等打造全流程移动端多模态大模型MobileVLM

近日,美团、浙大等推出了能够在移动端部署的多模态大模型,包含了 LLM 基座训练、SFT、VLM 全流程。也许不久的将来,每个人都能方便、快捷、低成本的拥有属于自己的大模型。

来自主题: AI资讯
10131 点击    2024-01-03 13:42
喂饭!RAG for LLM: A Survey论文导读

喂饭!RAG for LLM: A Survey论文导读

喂饭!RAG for LLM: A Survey论文导读

RAG没有想象中那么容易。相信这也是你会看到这篇文章的原因。

来自主题: AI资讯
9895 点击    2023-12-24 12:11
大模型推理效率无损提升3倍,滑铁卢大学、北京大学等机构发布EAGLE

大模型推理效率无损提升3倍,滑铁卢大学、北京大学等机构发布EAGLE

大模型推理效率无损提升3倍,滑铁卢大学、北京大学等机构发布EAGLE

大语言模型(LLM)被越来越多应用于各种领域。然而,它们的文本生成过程既昂贵又缓慢。这种低效率归因于自回归解码的运算规则:每个词(token)的生成都需要进行一次前向传播,需要访问数十亿至数千亿参数的 LLM。这导致传统自回归解码的速度较慢。

来自主题: AI资讯
5655 点击    2023-12-15 11:37
用RLHF 2%的算力让LLM停止有害输出,字节提出LLM遗忘学习

用RLHF 2%的算力让LLM停止有害输出,字节提出LLM遗忘学习

用RLHF 2%的算力让LLM停止有害输出,字节提出LLM遗忘学习

随着大型语言模型(LLM)的发展,从业者面临更多挑战。如何避免 LLM 产生有害回复?如何快速删除训练数据中的版权保护内容?如何减少 LLM 幻觉(hallucinations,即错误事实)? 如何在数据政策更改后快速迭代 LLM?这些问题在人工智能法律和道德的合规要求日益成熟的大趋势下,对于 LLM 的安全可信部署至关重要。

来自主题: AI资讯
7085 点击    2023-12-13 15:35
微调都不要了?3个样本、1个提示搞定LLM对齐,提示工程师:全都回来了

微调都不要了?3个样本、1个提示搞定LLM对齐,提示工程师:全都回来了

微调都不要了?3个样本、1个提示搞定LLM对齐,提示工程师:全都回来了

大模型的效果好不好,有时候对齐调优很关键。但近来很多研究开始探索无微调的方法,艾伦人工智能研究所和华盛顿大学的研究者用「免调优」对齐新方法超越了使用监督调优(SFT)和人类反馈强化学习(RLHF)的 LLM 性能。

来自主题: AI资讯
5891 点击    2023-12-06 15:17
BPO:灵活的 Prompt 对齐优化技术

BPO:灵活的 Prompt 对齐优化技术

BPO:灵活的 Prompt 对齐优化技术

并非所有人都熟知如何与 LLM 进行高效交流。 一种方案是,人向模型对齐。于是有了 「Prompt工程师」这一岗位,专门撰写适配 LLM 的 Prompt,从而让模型能够更好地生成内容。

来自主题: AI资讯
5120 点击    2023-11-20 14:00
AI「cosplay」关键在人设!复旦、人大等发布大五人格+MBTI测试:特质还原率达82.8%,拒绝OOC

AI「cosplay」关键在人设!复旦、人大等发布大五人格+MBTI测试:特质还原率达82.8%,拒绝OOC

AI「cosplay」关键在人设!复旦、人大等发布大五人格+MBTI测试:特质还原率达82.8%,拒绝OOC

良好的人设还原度是AI角色扮演的关键,研究人员对大五人格的NEO-FFI问卷和MBTI的16Personalities进行了改写,利用LLM将其中的问题从陈述句改写为了引导开放式问答的提问句,对AI角色进行测试。

来自主题: AI技术研报
4995 点击    2023-11-20 11:50
AI大语言模型LLM,为啥老被翻译成“法学硕士”?

AI大语言模型LLM,为啥老被翻译成“法学硕士”?

AI大语言模型LLM,为啥老被翻译成“法学硕士”?

LLM这个缩写在机器翻译中被误解为“法学硕士”,而不是“大语言模型”。 • 机器翻译系统通常依赖上下文和大量文本数据来学习翻译,导致LLM更容易被翻译成“法学硕士”。

来自主题: AI资讯
1608 点击    2023-11-06 09:58